今天先來複習一下高中教的統計模型:迴歸直線。
考慮 $N$ 筆資料,${\left(x_i, y_i \right)}{i=1}^N \in \mathbb{R}^2$,我們要找一條直線 $y = mx + k$,使得 $\sum{i=1}^N (y_i - (mx_i+k))^2$ 最小,也就是以下定義:
$$
m, k = \mathop{\arg\min}{m,\ k \in \mathbb{R}^2} \sum{i=1}^N (y_i - (mx_i+k))^2
$$
其中可以用高中數學或微積分解出 $\displaystyle m = r \frac{\sigma_y}{\sigma_x}$ 且 $\displaystyle k = \mu_y - r \frac{\sigma_y}{\sigma_x}\cdot \mu_x$。
高中迴歸直線可以說是最基本的統計模型,也是人工智慧模型最基本的式子,從這個概念可以推廣到各種各樣的模型,明天繼續。